home *** CD-ROM | disk | FTP | other *** search
/ NASA Global Data Sets for…phere Models 1987 - 1988 / NASA Global Data Sets for Land-Atmosphere Models 1987 - 1988 - Disc 1.iso / peer_rev.doc < prev    next >
Text File  |  1995-04-10  |  25KB  |  493 lines

  1.           A REVIEW OF THE ISLSCP INITIATIVE I CD-ROM COLLECTION:
  2.                      CONTEXT, SCOPE, AND MAIN OUTCOME
  3.  
  4.                        By Yann H. Kerr, CESBIO/LERTS
  5.  
  6. With contributions from Peter Briggs, Jim Collatz, Gerard Dedieu, Han Dolman,
  7. John Gash, Forrest Hall, Alfredo Huete, Fred Huemmrich, John Janoviak, Randy
  8. Koster, Sietse Los, James McManus, Blanche Meeson, Ken Mitchell, Michael
  9. Raupach, Piers Sellers, Paul Try, Ivan Wright, and YongKang Xue.
  10.  
  11.  
  12.  
  13. CONTENTS
  14.  
  15.   I. OVERVIEW
  16.  
  17.  II. GENERAL OUTLINE OF THE REVIEW PROCESS
  18.      2.1  Stage One: Documentation Review
  19.      2.2  Stage Two: Qualitative Analysis of the CDs
  20.      2.3  Stage Three: "Hardware" Review of the CDs
  21.      2.4  Stage Four: Extensive and Quantitative Review of the CDs
  22.  
  23. III. QUALITATIVE REVIEW OF THE INITIATIVE I CD COLLECTION
  24.      3.1  Scope of the Review
  25.      3.2  Charge to the Reviewer
  26.      3.3  Organization of the Review
  27.           3.3.1  Data Types
  28.           3.3.2  Methodology
  29.  
  30.  IV. OUTPUT OF THE REVIEW
  31.      4.1  Vegetation: Land Cover and Biophysics
  32.      4.2  Hydrology and Soils
  33.           4.2.1  Precipitation
  34.           4.2.2  Soils
  35.           4.2.3  Runoff
  36.      4.3  Snow, Ice, and Oceans
  37.      4.4  Radiation and Clouds
  38.           4.4.1  Radiation
  39.           4.4.2  Albedo
  40.           4.4.3  Clouds
  41.      4.5  Near-Surface Meteorology
  42.  
  43.   V. CONCLUSION
  44.  
  45.  
  46.  
  47. I.  OVERVIEW
  48.  
  49. A CD collection of global data sets has been issued within the framework of 
  50. ISLSCP Initiative I. The rationale for producing this CD set is described in 
  51. P.J. Sellers, et al. (Remote sensing of the land surface for studies of global 
  52. change: Algorithms, model, experiments. Rem. Sens. Environ. 51:1:3-26). This 
  53. collection should be of considerable interest to land-atmosphere modelers 
  54. since data sets such as these are difficult to obtain in one package. However, 
  55. there are risks involved in releasing such a collection.  Scientists may 
  56. consider its contents "gospel" (especially when the data come from another 
  57. scientific community) and may misuse the data or reject them as worthless or 
  58. grossly wrong, which could discredit the ISLSCP Initiative in its entirety. 
  59. Consequently, releasing the collection with insufficient explanation had to be 
  60. avoided.
  61.  
  62. Thus, the ISLSCP Science Steering Committee decided to review the different 
  63. data sets and include the results of the review (this text) on the CDs. 
  64. Because of time constraints, only a qualitative analysis, not a full review 
  65. process, was performed. In most cases the review consisted of looking at a 
  66. subsample of the different data sets (1 or 2 months, generally January and 
  67. July), identifying obvious problems, and suggesting corrections. Most of the 
  68. corrections were made but not reviewed. Real intercomparison of similar data 
  69. sets was not performed.
  70.  
  71. Generally speaking, the review showed that the data had the correct "look and
  72. feel." All reviewers agreed that, despite some problems, these CDs were very
  73. useful and almost always superior or equal to existing, though scattered and
  74. often inaccessible, data sets.
  75.  
  76. As you will most probably use one or several data sets included in this 
  77. collection, you may come up with relevant comments and a more quantitative 
  78. analysis of the contents. Consequently, we welcome all your comments toward 
  79. producing a more quantitative statement of worthiness and an improved 
  80. Initiative II data set collection on CDs. These should be sent to the editors 
  81. of the CD collection (Blanche Meeson, Code 902.2, NASA Goddard Space Flight 
  82. Center, Greenbelt, MD 20771. Email: meeson@eosdata.gsfc.nasa.gov. Voice: 301-
  83. 286-9282).
  84.  
  85.  
  86.  
  87. II. GENERAL OUTLINE OF THE REVIEW PROCESS
  88.  
  89. Time constraints necessitated splitting the review process into four stages as
  90. follows:
  91.  
  92.  
  93. 2.1  Stage One: Documentation Review
  94.  
  95. During the September 1993 ISLSCP Science Steering Committee (SSC) meeting, it 
  96. was decided to have the documentation reviewed separately to identify errors 
  97. and omissions of material essential for novice users. Tasks also included 
  98. flagging ranges of validity, main sources of errors, relevant literature, and 
  99. integrity of the documentation; reviewing for clarity, completeness, and data 
  100. comprehension; and checking the data format description and data acquisition 
  101. information. This review led to improved documentation files--this is actually 
  102. the main core of the CD review for the ground data sets and the data sets with 
  103. a long track record (e.g., Surface Radiation Budget (SRB) data sets).
  104.  
  105.  
  106. 2.2  Stage Two: Qualitative Analysis of the CDs
  107.  
  108. The role of this stage is detailed in Section III. The output is given in
  109. Section IV.
  110.  
  111.  
  112. 2.3  Stage Three: "Hardware" Review of the CDs
  113.  
  114. This review consisted of a quick look at a test version of the CD set (issued 
  115. in limited number: under 15 copies). The reviewers were expected to check that 
  116. the CDs are readable, the data are organized correctly, and everything is 
  117. present and similar to the original data set they reviewed as separate items 
  118. sent to them via e-mail or FTP files, etc. This was done.
  119.  
  120.  
  121. 2.4  Stage Four: Extensive and Quantitative Review of the CDs
  122.  
  123. This stage is for you, the user, to do. Please return your comments and 
  124. opinions to the editors of this CD collection (Blanche Meeson, Code 902.2, 
  125. NASA Goddard Space Flight Center, Greenbelt, MD 20771. Email: 
  126. meeson@eosdata.gsfc.nasa.gov. Voice: 301-286-9282). We ask that you
  127.  
  128.      a) include relevant information you gathered while using the CDs by
  129. comparing the data sets on the CDs with related data sets such as your own,
  130. model output, and large-scale experiment results
  131.  
  132.      b) suggest improvements, flag doubtful data, analyze the processing 
  133. steps, etc.--the data sets were intended to cover all of Earth's biomes; we 
  134. are sure that the quality of some of the products will vary with geographical 
  135. location and perhaps season.
  136.  
  137. This final review could culminate in a publication in the open literature and 
  138. maybe a workshop within a year or two of release of this CD collection. The 
  139. ISLSCP Science Steering Committee would also analyze the outcome of this 
  140. second review in light of Initiative II products and their ongoing program of 
  141. reviews.
  142.  
  143.  
  144.  
  145. III.  QUALITATIVE REVIEW OF THE INITIATIVE I CD COLLECTION
  146.  
  147. 3.1  Scope of the Review
  148.  
  149. The Initiative I goal was to produce CDs containing "available" state-of-the-
  150. art data sets and products from reliable and readily available data. Toward 
  151. this purpose, reviewers were asked to check the validity and usefulness of the 
  152. data sets; identify caveats, doubtful parameters, and big mistakes; and assess 
  153. validity ranges, glaring gaps, and redundancies with other data sets. When 
  154. applicable, they also suggested improvements.  
  155.  
  156.  
  157. 3.2  Charge to the Reviewer
  158.  
  159. "Perform a qualitative analysis (quantitative analysis whenever possible) of 
  160. the data sets from your knowledge of the discipline, cross comparisons with 
  161. other similar data sets, model output, etc." 
  162.  
  163. For this purpose, the reviewer was expected to check the data sets falling 
  164. into his area of expertise and personal knowledge and answer the following 
  165. questions.
  166.  
  167.      *  Which is the area or biome where I have made my comparison?  Are the 
  168.         data grossly wrong or do they compare well with what I have seen or 
  169.         measured?
  170.      *  From my experience, how accurate (error bars) are the data?
  171.      *  If differences are found, what are the possible explanations?
  172.      *  What is the validity range of the data (i.e., range of physical 
  173.         values, geographical areas, perturbating factors)?
  174.      *  What are the caveats or limitations of the data?
  175.      *  Are all the parameters relevant or useful?
  176.      *  What other similar data sets exist?
  177.      *  What are the temporal and spatial sampling characteristics?
  178.         Do they accurately reflect reality (representativity)?
  179.         Do they affect the usefulness of the data?
  180.      *  For "processed" data, what is my opinion about the processing steps,
  181.         assumptions made, and impact on the output quality?
  182.      *  Do I have any suggestions for improvements?
  183.  
  184.  
  185. 3.3  Organization of the Review
  186.  
  187. The first step is to distinguish between the different types of data sets, 
  188. since the review process might differ from one type to another.  
  189.  
  190. 3.3.1  Data Types
  191.  
  192. We identified three types of data sets: satellite data, ground data, and model 
  193. output.  Merged data sets were considered in both categories; for example, if 
  194. a data set contained ground and satellite data it was reviewed as both 
  195. categories.
  196.  
  197. a) Satellite data--Two subcategories:
  198.    * those that are new to the research community--the review process
  199.      concentrated on two topics:
  200.      1) analysis of the methodology used to process the data (identify 
  201.         caveats, oversimplistic or wrong assumptions, etc.)
  202.      2) comparison of these products to other data sets (ground, model,
  203.         experiments)--the data sets in this subcategory were the most 
  204.         important to review.
  205.    * those having a long track record, such as the Surface Radiation Budget 
  206.      data sets--these were reviewed similarly to model output data sets.
  207.  
  208. b) Ground data--For the most part, ground data had to be taken as given.  The 
  209. review focused on the known limitations of measurement techniques, sampling 
  210. (temporal and spatial), representativity, and accuracy. Where ground data were 
  211. produced after some processing steps, the reviewers were asked to give their 
  212. opinion about the procedures used.  
  213.  
  214. c) Model output--The main scope of the review was to identify questionable 
  215. model products, range or area of validity, usefulness or relevance of the 
  216. different parameters, comparison with ground data and satellite data, accuracy 
  217. and reliability, main limitations, and known problems. The problem with model 
  218. output products is that they are usually self-consistent and have the look and 
  219. feel of actual data. Novice users tend to consider these data as "truth," 
  220. whereby specialists are aware of the limitations.
  221.  
  222. 3.3.2  Methodology
  223.  
  224. The first step (Stage One) was to send the documentation to the document
  225. reviewers for a thorough review of content and accuracy. When the document
  226. reviewers' comments were received and incorporated, the data and documentation
  227. were sent to the Stage Two reviewers.
  228.  
  229. Stage Two reviewers were sent the documentation along with reviewing
  230. instructions via electronic mail. These documents introduced the data sets 
  231. that were to be reviewed and delineated the scope, charges, and schedule of 
  232. the review. The reviewers were then sent the data sets via FTP from Goddard 
  233. Space Flight Center (GSFC).
  234.  
  235. When the data had been reviewed, a meeting was held at GSFC (October 26-27,
  236. 1994) during which the data sets were analyzed by qualitative analysis of a
  237. couple of samples from each data set. The outcome of this review was a whole
  238. set of suggested improvements and harmonization of notations. In several 
  239. cases, alternative data sets were suggested, and, for lack of availability or 
  240. too poor quality, some data sets were replaced with others. A second meeting 
  241. took place January 4, 1995, at GSFC.  During this meeting the added data sets 
  242. and the corrections made to the first-round data sets were checked. The final 
  243. output of the review process is given in Section IV.
  244.  
  245. Once all the data sets were completed, test CDs were produced and checked to
  246. ensure that the data were properly encoded on the CDs (Stage Three, March 
  247. 1995).
  248.  
  249.  
  250.  
  251. IV.  OUTPUT OF THE REVIEW
  252.  
  253. 4.1  Vegetation: Land Cover and Biophysics
  254.  
  255. The satellite data were divided into two categories: data sets having a long
  256. track record (see 4.4) and "new products." Both types show caveats, but it was
  257. considered that they needed pointing out only in the latter case. The 
  258. vegetation land cover and biophysics data set was analyzed as a satellite data 
  259. set in the category "new to the community" (cf. 3.3.1). It is the most 
  260. challenging data set to review and one of the most interesting on the CD set 
  261. thanks to the global coverage of several parameters of interest for the 
  262. modeling community. The user should well be aware, however, of the limitations 
  263. of this suite of parameters.  The limitations are linked mainly to the 
  264. following facts.
  265.  
  266.      a) Nearly the whole data set is obtained from Normalized Difference
  267. Vegetation Index (NDVI) data. The input data consist of NDVI (2 years), a
  268. vegetation map derived from NDVI data, and Earth Radiation Budget Experiment
  269. (ERBE) data over the lower latitudes. Consequently, we have only two really
  270. independent data sets in some areas and one in others, with added specific
  271. information (respiration, C3/C4 etc.; see VEG_CLSS.DOC in the Documents
  272. folder on the CD).
  273.  
  274.      b) Any mistake or error in, say, the vegetation map will consequently
  275. propagate in all related output files: check closely the validity over your
  276. area of interest (Scotland seems to be covered with forest, for instance).
  277.  
  278.      c) NDVI is used with all the limitations of this quantity. No atmospheric
  279. corrections were done, but there were plenty of empirical procedures used to
  280. suppress problems linked with cloud cover.
  281.         This leads to constant values over rainforest, for example, throughout 
  282. the year (one value is retained as good per pixel and kept for the whole 
  283. year).  Consequently, there is a "jump" (not necessarily significant, though) 
  284. on December 31.
  285.         The Fourier transform tends to smooth the curve and suppress anomalies
  286. during vegetation growth (a decrease during the growing season due to a 
  287. drought for instance) or smooth out or suppress short term evolution (i.e., 
  288. semiarid fallow).
  289.         Sun angle correction is performed in a crude way (no relevant
  290. information available). It might cause problems around the equinoxes and along
  291. the scan.
  292.         In one direct comparison of these data with a higher resolution data 
  293. set gathered over the FIFE site, these NDVI product values appeared to have 
  294. lower than expected values in the middle of the growing season.
  295.  
  296.      d) The relationship to extract Fraction of Photosynthetically Active
  297. Radiation (FPAR) from Simple Ratio (SR) has been established over the Konza
  298. prairie. But, for many biomes, shadowing effects lead to a much less linear
  299. curve and, consequently, the obtained FPAR is sometimes largely 
  300. underestimated.
  301.  
  302.      e) For defining background reflectances, the ERBE data are pasted in 
  303. areas of sparse or no vegetation and the limit is visible in some places 
  304. (central Europe) as the values differ (largely in this case) from those 
  305. obtained by assigning values by vegetation type as defined from analyses of 
  306. NDVI.
  307.  
  308. Thus, for Initiative II it is strongly recommended that a more suitable input
  309. data set is used (actual reflectances and information on viewing and solar
  310. angles so that artificial cleanup methods are reduced to a minimum). Basic
  311. atmospheric corrections could then be done with water vapor from the European
  312. Center for Medium-Range Weather Forecast (ECMWF) or similar data. SR-FPAR
  313. relationships should be more thoroughly tested. It was also suggested to use
  314. Bidirectional Reflectance Distribution Function (BRDF) models.
  315.  
  316.  
  317. 4.2  Hydrology and Soils
  318.  
  319. The data sets in this category were analyzed as "ground data" and "merged data 
  320. sets." Generally speaking, ground data have been the most difficult to gather. 
  321. After the review process it was decided to drop several data sets originally 
  322. considered for inclusion in this CD collection because they were too 
  323. unreliable or the coverage of land surfaces was too sparse to be of any use 
  324. for global modeling. Those global ground data sets that appear on the CDs were 
  325. always judged as useful or very useful, in spite of a sometimes questionable 
  326. accuracy.  They are the only source of global, uniform data accessible without 
  327. the usual hassle.
  328.  
  329. 4.2.1  Precipitation
  330.  
  331. The monthly precipitation data set consists of data derived from analyses of
  332. surface gauge observations. The rainfall data set is the state of the art but
  333. might vary in quality with geographical location. This is due mainly to the
  334. spatial coverage available (some areas have a very sparse gauge coverage), and
  335. to the more basic problem of temporal sampling and representativity of values
  336. derived over a 1*1 degree grid from few, not regularly spaced ground
  337. measurements.
  338.  
  339. The representativity is fair temporally but slightly poor spatially, as one
  340. would expect. When compared with other (field campaign) measurements in Sahel
  341. and Brazil some discrepancies were found that were sometimes important. This 
  342. is probably due to spatial representativity. Users should be aware of these
  343. possible variations and should check, over a given area of interest, whether 
  344. the number of stations used over the 1*1 degree area is sufficient to give 
  345. credible results. The CD collection also holds a merged monthly satellite-
  346. surface precipitation product at 2.5*2.5 degree resolution: this is continuous 
  347. over the land and oceans and is provided only as a browse file.
  348.  
  349. A hybrid precipitation product was generated by using the NMC GCM analysis
  350. output and data from a large-scale observational program (GARP) to divide up 
  351. the GPCP 1 degree monthly data set described above into 6-hourly total and
  352. convective precipitation amounts, which can then be used in conjunction with 
  353. the ECMWF 6-hourly products. The accuracy of this hybrid product is unknown.
  354.  
  355. 4.2.2  Soils
  356.  
  357. The soil data set was put together from a variety of existing sources. It
  358. contains some information on soil composition, texture, depth, and slopes. It
  359. must be noted that these data sets are to be considered as is. They are not as
  360. accurate as desired, and the information content might not satisfy all users. 
  361. It is, however, the state of the art, and it is thought to be not possible to 
  362. get better information on a global basis at this time. To quote a reviewer, 
  363. "There is no new information on the CDs, just a concatenation of existing data 
  364. sets.  So it is clearly a case of rubbish in, rubbish out." The advantage is 
  365. that on a CD the presentation stops at the right point, that is, at the 
  366. leaping off place where the qualified expert would not dare to go. The data on 
  367. the CD are considered as better globally than other existing data sets. 
  368. However, locally (Amazon Basin, in this case) it is only equivalent to 
  369. existing data sets because of the poor source of data. Over the Amazon Basin, 
  370. it was found that the texture data are fairly accurate, but when they were 
  371. used to infer available soil moisture they proved to be questionable. This 
  372. probably applies to all areas of specific soils not well parameterized.
  373.  
  374. It must be noted that the slopes seem too high and that there is apparently a
  375. problem over Greenland where the slopes are greater than over the Great 
  376. Cascade in Alaska. This is probably due to the way the slopes are computed 
  377. from a data set containing only three ranges. For Initiative II, the slopes 
  378. will probably have to be directly estimated from a digital elevation model. 
  379. For similar reasons, the soil type data set has limitations linked to the 
  380. input data.
  381.  
  382. 4.2.3  Runoff
  383.  
  384. The runoff data set also suffers from several gaps. From a total of 34 basins,
  385. only 14 are available for both 1978 and 1988. The consistency of the flow 
  386. rates is not very good. This data set should be used for checks since the 
  387. coverage is not global and not fully reliable. It should not be used as input 
  388. data. The efforts for Initiative II will probably have to concentrate on 
  389. improving these ground data sets.
  390.  
  391.  
  392. 4.3  Snow, Ice, and Oceans
  393.  
  394. These data sets are to be taken as is and considered with much care. One 
  395. should first notice that the NOAA/NESDIS data set (snow extent) covers only 
  396. the northern hemisphere. Some doubtful results were also found (USAF ETAC snow
  397. depth) over Greenland (very high snow depth) and the Snow Cover Data Set has
  398. some isolated anomalies; e.g., New Zealand (snow in January!). Some problems
  399. were found also while regridding the polar stereo projection to the standard
  400. grid used on the CD.
  401.  
  402. The ocean data sets were not reviewed.
  403.  
  404.  
  405. 4.4  Radiation and Clouds
  406.  
  407. These data sets were analyzed as "satellite data with a long track record."
  408. Users should refer to the documentation file for possible caveats, terminator
  409. effects, and so on.
  410.  
  411. 4.4.1  Radiation
  412.  
  413. There are several data sets of interest in this category: the ECMWF data (see
  414. 4.5), ERBE data, Staylor and Darnell (Langley Research Center), and Pinker's. 
  415. The main problem encountered was satellite coverage that did not cover the 
  416. complete globe. Gaps were filled through an interpolation method (Pinker) 
  417. after the first review. Nevertheless, discrepancies occur at the limits of the 
  418. coverage of the different geostationary satellites. It was also found that the 
  419. radiation values were compatible with climatological values with differences 
  420. of between 10 and 20 percent in some cases, which can be attributed to 
  421. sampling and interpolation problems in the climatological data sets. In the 
  422. Sahel area, the ISLSCP radiation values well captured the seasonal variability 
  423. (+/- 20 deg. W), while in the Amazon Basin, only longwave down and net 
  424. longwave agreed with ground measurements. The shortwave down appeared bad, and 
  425. the shortwave net and total net were not very good. Moreover, the seasonality 
  426. of the signal found on the ISLSCP data set (+/- 70 deg. W) is not visible on 
  427. ground measurements.  A registration error in the second part of 1987 was 
  428. detected. Globally the radiation data seem reasonably accurate with some local 
  429. problems that are largely compensated by the available global coverage. For 
  430. Initiative II it was recommended to improve the aggregation technique. In 
  431. addition, it was recommended that the authors be less vague on the description 
  432. of their procedures in the documentation file.
  433.  
  434. 4.4.2  Albedo
  435.  
  436. There seem to be some registration errors in the ERBE data set (5 deg. W), at 
  437. least for some months. Significant differences were also found between the 
  438. ERBE Top of Atmosphere (TOA) albedos and the Langley surface values (higher 
  439. over the oceans and lower over the land), but it was also found that the ERBE 
  440. albedo was slightly too high (over Sahel and Amazon). It is recommended that 
  441. the documentation file clearly describe the differences between TOA and 
  442. surface so that the uneducated user has some views on that problem.
  443.  
  444. 4.4.3  Clouds (and Atmospheric Data)
  445.  
  446. This data set (International Satellite Cloud and Climatology Project) was put 
  447. on CD as is. It has several problems due mainly to the different algorithms 
  448. used over sea and land (the continent contours are visible!) and to the 
  449. imperfect intercalibration of the different sensors or gap filling procedure 
  450. (vertical structure west of the Indian subcontinent linked to METEOSAT and GMS 
  451. coverage).  Finally the values at the extreme latitudes seem erroneous (cloud 
  452. water for land looks strange. This data set has to be used with much care. 
  453. Some reviewers suggested discarding the cloud optical thickness and cloud 
  454. water path, but it is included here because others thought it essential.
  455.  
  456.  
  457. 4.5  Near-Surface Meteorology
  458.  
  459. The output of the review is very small on this data set. The problems were
  460.  
  461.      a) It is very difficult to check and there was really only one data set
  462. available at the beginning of this CD initiative (ECMWF). Model outputs are of
  463. the self-consistent type.  The model runs with various assumptions (sometimes
  464. gross) so that the output of directly useful or checkable products makes some
  465. sense. Consequently, some output data do not make much sense. The ISLSCP SSC 
  466. and review team did some "pruning" of seemingly worthless data and decided to
  467. elaborate new products of use in modeling (see documentation files) from
  468. existing data.
  469.  
  470.      b) The data set arrived late and proved to be difficult to process, and
  471. contained a large volume of data (four out of the five CDs). Thus, we did not
  472. have much opportunity to go through it. Consequently, the data sets are to be
  473. considered as state of the art to be taken as is, but not necessarily as 
  474. gospel.  The user is strongly encouraged to read the documentation file 
  475. carefully and if not a "trained user" to ask a modeler in case of doubt.
  476.  
  477.  
  478.  
  479. V.  CONCLUSION
  480.  
  481. The CD collection review process has been an interesting and valuable
  482. experience.  We believe that it has enabled a significant improvement of the 
  483. content. Our only regret is that the time constraint has been too strong, not 
  484. allowing the reviewers to go as deep as they would have liked in the analysis. 
  485. We believe, nevertheless, that users will provide us with their comments so 
  486. that a more complete review will eventually emerge, and the Initiative II CD 
  487. collection will benefit from user feedback and a more indepth review.
  488.  
  489. Finally, the reviewers are deeply indebted to Blanche Meeson and James McManus
  490. who, with very short notice, made this review possible in spite of various and
  491. complex problems they had to solve to put together these data sets and the
  492. reviewers' "suggested" changes.
  493.